在弱监督学习(WSL)中,对从语义规则和特定于任务的预训练模型获得的嘈杂标签进行了训练。规则对任务的概括有限,并且需要大量的手动工作,而预培训模型仅适用于有限任务。在这项工作中,我们建议利用基于及时的方法作为弱来源,以获取未注释数据的嘈杂标签。我们表明,任务不合时宜的提示是可以推广的,可用于获取用于不同口语理解(SLU)任务的嘈杂标签,例如情感分类,不足的检测和情感分类。这些提示还可以更新以添加特定于任务的上下文,从而为设计特定于任务的提示提供灵活性。我们证明,基于及时的方法为上述SLU任务生成可靠的标签,因此可以用作通用弱源在没有标记数据的情况下训练弱监督模型(WSM)。我们提出的WSL管道对基于迅速的弱源进行了训练,在所有三个基准SLU数据集上,对零F1的零型学习和少量学习的其他竞争性低资源基准优于其他竞争性低资源基准。所提出的方法还优于传统的基于规则的WSL管道在宏F1上的表现超过5%。
translated by 谷歌翻译
面向目标的对话系统的核心组件之一是意图检测的任务。由于可用的附带话语的稀缺性,目的检测时的几次射门学习是挑战。尽管最近的作品已经提出了使用基于度量的基于优化的方法,但任务仍然在大标签空间中挑战,射击数量小得多。由于在测试阶段,由于两种新颖和看到的课程存在,概括的少量学习更加困难。在这项工作中,我们提出了一种基于自然语言推理的简单有效的方法,不仅解决了几次射击意图检测问题,而且在零射击和广义少数射击学习问题中证明是有用的。我们对许多自然语言理解(NLU)和口语理解(SLU)数据集的大量实验表明了我们的方法的有效性。此外,我们突出了我们基于NLI的方法的设置,通过巨大的利润率优于基线。
translated by 谷歌翻译